تحلیل نظامیدفاعیدنیای مافناورینظامیهوش مصنوعی

نخستین نبرد هوش مصنوعی و اطلاعات غلط

نخستین نبرد هوش مصنوعی و اطلاعات غلط


متن ارائه شده، که گزیده‌هایی از تحلیلی با عنوان «نخستین جنگ هوش مصنوعی: چگونه درگیری ایران و اسرائیل به میدان نبرد اطلاعات نادرست زایشی تبدیل شد»، از سوی سازمان دیده‌بان رسانه‌های دیجیتال اروپا (EDMO) منتشر شده است.

این منبع به بررسی نقش هوش مصنوعی زایشی (Generative AI) در تولید و انتشار حجم بی‌سابقه‌ای از اطلاعات نادرست در جریان درگیری ایران و اسرائیل در سال ۲۰۲۴ تا ۲۰۲۵ می‌پردازد.

سازمان فکت‌نامه‌، یک سازمان حقیقت‌یاب ایرانی مستقر در کانادا، تجربیات خود را در مورد مواجهه با این نوع جدید از تبلیغات دیجیتال، از جمله تصاویر و ویدئوهای ساختگی از شهرهای ویران‌شده و هواپیماهای سرنگون‌شده، به اشتراک می‌گذارد.

نویسنده نتیجه می‌گیرد که این درگیری، ظهور عصر جدیدی از پروپاگاندای دیجیتال است که اعتماد عمومی را به شدت کاهش داده و بر نیاز مبرم به سواد رسانه‌ای متناسب با عصر هوش مصنوعی تأکید می‌کند.

در نهایت، ساختار EDMO، از جمله بخش‌های مختلف فعالیت‌های آن مانند حقیقت‌سنجی، سواد رسانه‌ای، و حوزه‌های موضوعی مانند «درگیری اسرائیل و حماس» نیز در متن گنجانده شده است.

ماهیت، ابعاد، و تاثیرات کلیدی اطلاعات غلط زایشی جنگ هوش مصنوعی در درگیری ایران و اسرائیل چه بود؟

بر اساس منابع ارائه شده، درگیری ایران و اسرائیل در سال ۲۰۲۴–۲۰۲۵ به دلیل نقش محوری هوش مصنوعی زایشی (Generative AI) در شکل‌دهی به ادراک عمومی، به عنوان اولین درگیری بزرگ نظامی شناخته شد که در آن این نوع اطلاعات غلط مورد استفاده قرار گرفت.

ماهیت، ابعاد، و تأثیرات کلیدی اطلاعات غلط زایشی در این درگیری به شرح زیر بود:

۱. ماهیت و تحول اطلاعات غلط زایشی

این درگیری نقطه عطفی را در ماهیت اطلاعات غلط نشان داد. در حالی که در بحران‌های گذشته (مانند انتخابات یا اعتراضات داخلی ایران)، اطلاعات غلط اغلب شامل ویدیوهای قدیمی، عکس‌های بازیافتی، و تصاویر با زیرنویس‌های نادرست بود؛ درگیری ایران و اسرائیل موج جدیدی از اطلاعات غلط را به وجود آورد که از ویژگی‌های زیر برخوردار بود:

  • پیچیدگی و ساختگی بودن کامل: موج جدید اطلاعات غلط، که اندکی پس از حملات موشکی تلافی‌جویانه ایران پدیدار شد، شامل ویدیوها و تصاویر ساخته‌شده توسط هوش مصنوعی بود. این تصاویر «براق، دراماتیک، و در بسیاری موارد کاملاً ساختگی» بودند.
  • دسترسی آسان: مانع ورود (Barrier to entry) تقریباً از بین رفته است؛ به طوری که هر کسی با یک گوشی هوشمند و یک فرمان (prompt) می‌تواند در عرض چند دقیقه تصاویر ساختگی متقاعدکننده‌ای خلق کند.
  • تغییر مسیر جریان اطلاعات غلط: در ابتدا، محتوای شهروندان از تهران (پس از حملات ۱۳ ژوئن ۲۰۲۵) معتبر و واقعی بود، به طوری که خلأ اطلاعاتی برای پر کردن باقی نگذاشته بود. به طعنه، در این مرحله، اطلاعات غلط به شکل معکوس عمل کرد: تصاویر معتبر به دروغ ساختگی خوانده شدند. اما پس از آن، موج اطلاعات غلط زایشی آغاز شد.

۲. ابعاد (گستردگی و مثال‌ها) جنگ هوش مصنوعی

این موج از اطلاعات غلط به سرعت شبکه‌های اجتماعی فارسی، اردو، عربی، و حتی غربی را درنوردید.

نوشته های مشابه

الف. تولید محتوای تخریب شهری و خسارات ساختگی

اطلاعات غلط زایشی صحنه‌هایی از تخریب را به تصویر می‌کشید که هرگز رخ نداده بودند:

  • ویدیوی «روز قیامت در تل آویو»: یکی از اولین نمونه‌های منتشرشده توسط حساب رسمی روزنامه انگلیسی‌زبان تهران تایمز (وابسته به دولت ایران) بود. این ویدیو که تخریب فانتزی (fantasy destruction) ساخته شده توسط هوش مصنوعی بود، شهری ویران‌شده را نشان می‌داد.
  • تصاویر مونتاژ شده: رسانه‌های ایرانی مانند فارس نیوز، نور نیوز، و شرق ویدیوهای ترکیبی منتشر کردند تحت عنوان «تل آویو قبل و بعد از جنگ با ایران»، که تقریباً تمام فیلم‌های آن ساخته هوش مصنوعی بودند.

ب. روایت‌های دروغین در مورد تجهیزات نظامی

شاید پایدارترین روایت غلط، ادعای موفقیت ایران در ساقط کردن چندین جت جنگنده F-35 اسرائیل بود.

  • نشانه‌های ساختگی بودن: تصاویر لاشه هواپیما در رسانه‌های دولتی و شبکه‌های اجتماعی فارسی‌زبان منتشر شد که دارای اشکالات آشکاری بود، از جمله: ستاره داوود نابجا، چمن دست‌نخورده اطراف محل سقوط، مقیاس غیرواقعی و موتور غیرعادی. استفاده از ابزار تشخیص هوش مصنوعی نشان داد که تصویر با احتمال ۹۸ درصد توسط ماشین تولید شده است.
  • این ادعا هفته‌ها تکرار شد و نهایتاً در ۱۰ جولای (بدون پذیرش دروغ بودن آن)، در تلویزیون دولتی به عنوان «عملیات روانی صهیونیستی» پس گرفته شد.

ج. سایر نمونه‌های فریبنده

کمپین اطلاعات غلط شامل موارد دیگری نیز بود:

  • انتشار و حذف سریع ویدیویی ساختگی از برخورد موشک ایران به تل آویو توسط پرس تی‌وی، که انفجاری کارتونی داشت.
  • به اشتراک‌گذاری یک گودال (crater) ساخته شده توسط هوش مصنوعی به عنوان مدرکی دال بر حمله ایران به اسرائیل.
  • شایعات دروغین مبنی بر ارسال ۷۵۰ موشک بالستیک از پاکستان برای کمک به ایران، که در ویدیوهای پشتیبان آن کامیون‌های ساخته‌شده توسط هوش مصنوعی با رانندگان غایب و افرادی که در میان حرکت ناپدید می‌شدند، دیده می‌شد.
  • ویدیوهایی از تظاهرات ساختگی اسرائیلی‌ها برای صلح، و همچنین ویدیویی مشابه از ایرانیانی که «ما اسرائیل را دوست داریم!» را تشویق می‌کردند، که هر دو کاملاً با هوش مصنوعی تولید شده بودند.

۳. تأثیرات کلیدی اطلاعات غلط زایشی جنگ هوش مصنوعی

این امر نه تنها نحوه مشاهده درگیری را تغییر داد، بلکه بر باورها نیز تأثیر گذاشت.

  • فرسایش اعتماد عمومی: با رایج شدن تصاویر ساختگی هوش مصنوعی، اعتماد عمومی از بین می‌رود. مردم شروع به زیر سوال بردن همه چیز می‌کنند، حتی ویدیوها و تصاویر واقعی که با سوگیری‌های آنها در تضاد هستند.
  • ایجاد «بدبینی افراطی» (Hyper-cynicism): یک ویدیوی واقعی و تکان‌دهنده از برخورد موشک اسرائیل در یک خیابان شلوغ تهران، توسط بسیاری در فضای مجازی به عنوان ساخته هوش مصنوعی و تبلیغات حکومتی رد شد. این امر نشان‌دهنده «بدبینی افراطی» است که در آن حقیقت نیز مورد سوء ظن ساختگی بودن قرار می‌گیرد.
  • قدرت‌گیری پروپاگاندا: این فناوری ابزارهایی را در اختیار مبلغان و بازیگران بدخواه قرار می‌دهد تا آب‌ها را گل‌آلود کنند و زمینه را برای فریبکاری‌های بی‌سابقه فراهم سازند.
  • لزوم سواد رسانه‌ای جدید: در پاسخ به این دوران جدید پروپاگاندای دیجیتال، نیاز است که سواد رسانه‌ای برای عصر هوش مصنوعی دوباره تعریف شود و به مردم آموزش داده شود که چگونه اطلاعات غلط متقاعدکننده و باکیفیت را زیر سوال ببرند، نه صرفاً تصاویر ساختگی خام و آشکار.

چگونه انتشار انبوه محتوای جعلی به فرسایش اعتماد عمومی به اطلاعات حقیقی منجر شد؟

بر اساس منابع، انتشار انبوه محتوای جعلی و هوش مصنوعی زایشی (Generative AI) در جریان درگیری ایران و اسرائیل در سال ۲۰۲۴–۲۰۲۵ به شیوه‌ای خطرناک منجر به فرسایش اعتماد عمومی به اطلاعات حقیقی شد، که این پدیده به سال ۲۰۲۴–۲۰۲۵ به شیوه‌ای خطرناک منجر به فرسایش اعتماد عمومی به اطلاعات حقیقی شد، که این پدیده به عنوان بدبینی افراطی (hyper-cynicism) توصیف شده است.

نحوه شکل‌گیری این فرسایش اعتماد به شرح زیر است:

۱. تبدیل شدن اطلاعات ساختگی به امری رایج و با کیفیت جنگ هوش مصنوعی

  • کاهش مانع تولید: ورود هوش مصنوعی زایشی به این درگیری، مانع ورود (barrier to entry) برای تولید محتوای جعلی را تقریباً از بین برد . اکنون هر فردی تنها با یک تلفن هوشمند و یک فرمان (prompt) می‌تواند در عرض چند دقیقه تصاویر ساختگی و متقاعدکننده‌ای را خلق کند.
  • پیچیدگی و حجم بالای فریب: این موج جدید از اطلاعات غلط، که پس از حملات تلافی‌جویانه ایران پدیدار شد، شامل ویدیوها و تصاویر ساخته‌شده توسط هوش مصنوعی بود که “براق، دراماتیک و در بسیاری موارد کاملاً ساختگی” بودند. حجم بالا و پیچیدگی این محتوا که صحنه‌هایی مانند تخریب فانتزی شهرهای اسرائیل یا سرنگونی جت‌های F-35 را به تصویر می‌کشید، باعث شد که این تصاویر ساختگی به امری رایج‌تر تبدیل شوند .

۲. نتیجه: زیر سؤال بردن همه‌چیز توسط عموم

  • فرسایش اعتماد (Erosion of Trust): همانطور که تصاویر ساختگی هوش مصنوعی رایج‌تر می‌شوند، اعتماد عمومی از بین می‌رود. مردم شروع به زیر سؤال بردن همه چیز می‌کنند، حتی ویدیوها و تصاویر واقعی که ممکن است با تعصبات (biases) آن‌ها در تضاد باشند.
  • بدبینی افراطی (Hyper-cynicism): این فرسایش اعتماد، به پدیده‌ای منجر شد که منابع آن را “بدبینی افراطی” نامیدند. در این حالت، حقیقت نیز مظنون به ساختگی بودن تلقی می‌شود.

۳. مثال‌های کلیدی از رد شدن حقیقت

شدیدترین نمونه این تأثیر، مربوط به واکنش عمومی به ویدیوهای واقعی بود:

  • هنگامی که یک ویدیوی تکان‌دهنده و معتبر از برخورد موشک اسرائیل در یک خیابان شلوغ در تهران منتشر شد، بسیاری از کاربران آنلاین فوراً آن را ساخته هوش مصنوعی و تبلیغات حکومتی تلقی کرده و رد کردند.
  • این امر نشان داد که این جنگ‌های هوش مصنوعی نه تنها آنچه را که ما می‌بینیم تغییر می‌دهند، بلکه آنچه را که ما باور داریم نیز تغییر می‌دهند.

به طور خلاصه، انتشار انبوه و آسان محتوای جعلی و باکیفیت بالا، توانایی مردم برای تمایز بین واقعیت و ساختار را مختل کرده است، به طوری که حتی شواهد بصری واقعی نیز، در صورت تضاد با پیش‌فرض‌ها، به عنوان دروغ یا پروپاگاندا رد می‌شوند.

راهبردهای مؤثر برای ارتقاء سواد رسانه‌ای و مقابله با سوءاستفاده از هوش مصنوعی کدامند؟

بر اساس منابع، در مواجهه با عصر جدید پروپاگاندای دیجیتال و سوءاستفاده گسترده از **هوش مصنوعی زایبر اساس منابع، در مواجهه با عصر جدید پروپاگاندای دیجیتال و سوءاستفاده گسترده از هوش مصنوعی زایشی (Generative AI) در درگیری‌هایی نظیر درگیری ایران و اسرائیل، راهبردهای مؤثری برای ارتقاء سواد رسانه‌ای و مقابله با این پدیده پیشنهاد شده‌اند.

این راهبردها باید فراتر از بازرسی صرف واقعیت (fact-checking) عمل کنند و یک اکوسیستم مقاومت گسترده ایجاد نمایند:

۱. بازتعریف و ارتقاء آموزش سواد رسانه‌ای در جنگ هوش مصنوعی

  • آموزش برای عصر هوش مصنوعی: سواد رسانه‌ای باید برای عصر هوش مصنوعی دوباره تعریف شود. این بدان معناست که به مردم نه تنها آموزش داده شود که چگونه تصاویر ساختگی خام را تشخیص دهند، بلکه چگونه اطلاعات غلط متقاعدکننده و باکیفیت بالا (persuasive, high-quality disinformation) را زیر سؤال ببرند.
  • حمایت هدفمند از گروه‌های آسیب‌پذیر: جمعیت‌های آسیب‌پذیر، به ویژه بزرگسالان مسن‌تر و کاربرانی که سواد دیجیتالی کمتری دارند، به حمایت هدفمند نیاز دارند.
  • ادغام در برنامه‌های درسی: همکاری با کتابخانه‌ها و مدارس برای ادغام سواد رسانه‌ای در برنامه‌های درسی ضروری است.

۲. ایجاد اکوسیستم گسترده مقاومت و همکاری

مقابله با اطلاعات غلط زایشی مستلزم همکاری چندوجهی میان ذی‌نفعان مختلف است:

  • همکاری با شرکت‌های فناوری: باید با شرکت‌های فناوری برای بهبود ابزارهای تشخیص هوش مصنوعی همکاری کرد و در جهت برچسب‌گذاری واضح محتوای تولید شده توسط هوش مصنوعی (clear labeling of AI-generated content) فشار آورد.
  • شبکه‌های واکنش سریع: باید شبکه‌های واکنش سریع متشکل از بازرسان واقعیت و محققان ایجاد کرد تا بتوانند اطلاعات غلط ویروسی را قبل از جا افتادن و فراگیر شدن، مهار کنند.
  • پشتیبانی از سیاست‌گذاران: سیاست‌گذاران به راهنمایی‌های تخصصی نیاز دارند تا بتوانند مقررات هوشمندانه‌ای (smart regulation) تدوین کنند که به سوءاستفاده‌ها رسیدگی کند، بدون اینکه نوآوری را محدود سازد.

منابع تأکید می‌کنند که با توجه به اینکه فناوری هوش مصنوعی در پشت تصاویر و ویدیوهای جعلی به صورت تصاعدی در حال بهبود است ، آمادگی برای این “جنگ‌های هوش مصنوعی” که نه تنها آنچه را که می‌بینیم، بلکه آنچه را که باور داریم تغییر می‌دهند، حیاتی است.

توجه: سازمان دیدبان رسانه‌های دیجیتال اروپا (EDMO)، که منبع تحلیل فوق را منتشر کرده است، خود در زمینه‌های مختلفی فعالیت می‌کند، از جمله: بازرسی واقعیت (Fact-Checking)، سواد رسانه‌ای (Media Literacy) (که شامل ارتقاء تبادل دانش، افزایش استانداردها از طریق رهنمودهای EDMO و کمپین “آنلاین هوشمند باش” می‌شود)، و تحلیل سیاست‌گذاری. این فعالیت‌ها نشان‌دهنده ابعاد ضروری مقابله سازمانی با اطلاعات غلط هستند.

نمایش بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا